Световни новини без цензура!
Генераторите на AI изображения се обучават на явни снимки на деца, показва нов доклад
Снимка: euronews.com
Euro News | 2023-12-20 | 19:16:40

Генераторите на AI изображения се обучават на явни снимки на деца, показва нов доклад

В ново проучване Станфордската интернет обсерватория откри повече от 3200 изображения на предполагаемо сексуално малтретиране на деца в гигантската AI база данни LAION.

Скрити в основата на популярните генератори на изображения с изкуствен интелект (AI) са хиляди изображения на сексуално малтретиране на деца, според което настоява компаниите да предприемат действия за отстраняване на вреден недостатък в технологията, която са изградили.

Същите тези изображения улесниха системите с изкуствен интелект да създават реалистични и ясни изображения на фалшиви деца, както и да трансформират снимки в социалните медии на напълно облечени истински тийнейджъри в голи, за голяма тревога на целия свят.

Доскоро изследователите на борбата със злоупотребите смятаха, че единственият начин, по който някои непроверени AI инструменти създават злоупотребяващи изображения на деца, е като по същество комбинират това, което са научили от две отделни групи онлайн изображения – порнография за възрастни и доброкачествени снимки деца.

Възходът на китайските „призрачни ботове“: Този баща се обърна към AI, за да „съживи цифрово“ мъртвия си син

Но Станфордската интернет обсерватория откри повече от 3200 изображения на предполагаемо сексуално насилие над деца в гигантския AI база данни LAION, индекс на онлайн изображения и надписи, който се използва за обучение на водещи създатели на изображения с изкуствен интелект, като например Stable Diffusion.

Групата за наблюдение, базирана в Станфордския университет, работи с Канадския център за закрила на детето и други благотворителни организации за борба със злоупотребите, за да идентифицира незаконния материал и да докладва на правоприлагащите органи оригиналните връзки към снимки.

Отговорът беше незабавен. В навечерието на публикуването в сряда на доклада на Станфордската интернет обсерватория LAION каза на Associated Press, че временно премахва своите набори от данни. изявление, че „има политика на нулева толерантност към незаконно съдържание и с голяма предпазливост сме свалили наборите от данни LAION, за да гарантираме, че са безопасни, преди да ги публикуваме повторно“.

Собственикът на ChatGPT OpenAI се справя с новините издателите да използват съдържание за обучение на своя AI

„Не можем да върнем това обратно“

Докато изображенията представляват само малка част от индекса на LAION от около 5,8 милиарда изображения , групата от Станфорд казва, че това вероятно влияе върху способността на инструментите за изкуствен интелект да генерират вредни резултати и засилва предишната злоупотреба с реални жертви, които се появяват многократно.

Проблемът не е лесен за отстраняване и се връща към много генеративни AI проекти са „ефективно изстреляни на пазара“ и са широко достъпни, защото областта е толкова конкурентна, каза главният технолог на Станфордската интернет обсерватория Дейвид Тийл, който е автор на доклада.

„Вземайки цял интернет изчерпването и създаването на този набор от данни за обучение на модели е нещо, което трябваше да бъде ограничено до изследователска операция, ако не друго, и не е нещо, което трябваше да бъде без много по-строго внимание“, каза Тийл в интервю.

Виден потребител на LAION, който помогна за оформянето на развитието на набора от данни, е базираната в Лондон стартираща компания Stability AI, производител на моделите за текст към изображение Stable Diffusion.

Новите версии на Stable Diffusion направиха много по-трудно създават вредно съдържание, но една по-стара версия, въведена миналата година – която Stability AI казва, че не е пуснала – все още е включена в други приложения и инструменти и остава „най-популярният модел за генериране на изрични изображения“, според доклада на Станфорд.

„Не можем да върнем това обратно. Този модел е в ръцете на много хора на техните локални машини“, каза Лойд Ричардсън, директор на информационните технологии в Канадския център за закрила на детето, който управлява канадската гореща линия за докладване на онлайн сексуална експлоатация.

Stability AI в сряда заяви, че хоства само филтрирани версии на Stable Diffusion и че „откакто пое ексклузивната разработка на Stable Diffusion, Stability AI предприе проактивни стъпки за намаляване на риска от злоупотреба“.

„Тези филтри премахват опасните съдържание от достигане до моделите", се казва в подготвено изявление на компанията. 

"Като премахнем това съдържание, преди изобщо да достигне до модела, можем да помогнем да предотвратим генерирането на опасно съдържание от модела".

LAION беше плод на въображението на немски изследовател и учител Кристоф Шуман, който каза пред АП по-рано тази година, че част от причината да направи такава огромна визуална база данни публично достъпна е да се гарантира, че бъдещето на развитието на ИИ е t се контролира от шепа мощни компании.

„Ще бъде много по-безопасно и много по-справедливо, ако можем да го демократизираме, така че цялата изследователска общност и цялата широка общественост да могат да се възползват от него“, каза той .

Голяма част от данните на LAION идват от друг източник, Common Crawl, хранилище на данни, които се търсят постоянно от отворения интернет, но изпълнителният директор на Common Crawl, Рич Скрента, каза, че е „длъжност на“ LAION да сканира и филтрира необходимото, преди да го използва.

LAION каза тази седмица, че е разработил „строги филтри“ за откриване и премахване на незаконно съдържание, преди да пусне своите набори от данни и все още работи за подобряване на тези филтри. Докладът на Станфорд признава, че разработчиците на LAION са направили някои опити да филтрират изрично съдържание за „непълнолетни“, но може би щяха да свършат по-добра работа, ако се консултираха по-рано с експерти по безопасност на децата.

Много генератори на текст към изображение са получени в по някакъв начин от базата данни LAION, въпреки че не винаги е ясно кои. OpenAI, производител на DALL-E и ChatGPT, каза, че не използва LAION и е прецизирал своите модели, за да отхвърля заявки за сексуално съдържание, включващо непълнолетни.

Google изгради своя модел Imagen от текст към изображение въз основа на набор от данни LAION, но реши да не го прави публичен през 2022 г., след като  „разкри широк набор от неподходящо съдържание, включително порнографски изображения, расистки обиди и вредни социални стереотипи“.

Защита на поверителността на децата онлайн Действайте

Опитът да се изчистят данните със задна дата е труден, така че Станфордската интернет обсерватория призовава за по-драстични мерки.

Едният е за всеки, който е изградил комплекти за обучение от LAION‐5B – кръстен на повече от 5 милиарда двойки изображение-текст, които съдържа – да ги „изтрие или да работи с посредници за почистване на материала“.

Друго е ефективно да накарате по-стара версия на Stable Diffusion да изчезне от всички, освен от най-тъмните ъгли на Интернет.

„Легитимните платформи могат да спрат да предлагат нейни версии за изтегляне“, особено ако те често се използват за генериране на злоупотребяващи изображения и нямат предпазни мерки за тяхното блокиране, каза Тийл.

Като пример Тийл посочи CivitAI, платформа, която е предпочитана от хора, създаващи порнография, генерирана от AI, но която той липсват мерки за безопасност, за да се противопостави на правенето на изображения на деца. Докладът също така призовава компанията за изкуствен интелект Hugging Face, която разпространява данните за обучение на модели, да приложи по-добри методи за докладване и премахване на връзки към обидни материали.

Hugging Face каза, че редовно работи с регулаторите и безопасността на децата групи за идентифициране и премахване на обидни материали. CivitAI не върна искания за коментари, изпратени до неговата уеб страница.

Докладът на Станфорд също поставя под въпрос дали всякакви снимки на деца – дори и най-доброкачествените – трябва да се въвеждат в системите с изкуствен интелект, без да са във федералната онлайн поверителност на децата Закон за защита.

Ребека Портноф, директор на науката за данните в организацията за борба със сексуалното малтретиране на деца Thorn, каза, че нейната организация е провела проучване, което показва, че разпространението на изображения, генерирани от AI сред насилниците, е малко, но нараства последователно.

Разработчиците могат да смекчат тези вреди, като се уверят, че наборите от данни, които използват за разработване на AI модели, не съдържат злоупотреби.

Портноф каза, че има и възможности за смекчаване на вредните употреби надолу по линията, след като моделите вече са в обращение.

Технологичните компании и групите за безопасност на децата понастоящем присвояват „хеш“ на видеоклипове и изображения - уникални цифрови подписи - за проследяване и премахване на материали за насилие над деца. Според Портноф същата концепция може да се приложи към AI модели, с които се злоупотребява.

„В момента това не се случва“, каза тя. „Но това е нещо, което според мен може и трябва да се направи“.

Източник: euronews.com


Свързани новини

Коментари

Топ новини

WorldNews

© Всички права запазени!